TOMA DE DECISIONES A TRAVÉS DE LA INVESTIGACIÓN DE OPERACIONES

Naim Caba Villalobos
Oswaldo Chamorro Altahona
Tomás José Fontalvo Herrera

Capítulo 5 El Proceso de las Cadenas de Markov

 

Objetivos

● Cómo reconocer una cadena de Markov

● Cómo se describe una cadena de Markov en una matriz de transición o un diagrama de estado.

● Cómo calcular las probabilidades del estado transitorio

● Cómo calcular las probabilidades del estado estable utilizando el método de suma de flujos, el método de sumas matriciales o a través de las funciones en Excel.

● Como aplicar el análisis de Markov.

Algunas situaciones empresariales se pueden modelar describiendo clases o estados separados, de manera que el sistema esté en un solo estado cada vez y que el cambio entre estados sea probabilística. Los procesos de Markov se pueden analizar para encontrar el comportamiento futuro a corto y a largo plazo, una vez que se ha especificado el proceso.

5.1 Probabilidades de Transición

Una forma para describir una cadena de Markov es con un diagrama de estados, como el que se muestra en la Figura Nº 5-1. En ésta se ilustra un sistema de Markov con cuatro estados posibles: S1, S2, S3 y S4. La probabilidad condicional o de transición de moverse de un estado a otro se indica en el diagrama. Para simplificar la notación se utilizan subíndices para el estado actual y el siguiente. Es decir, P14 = P (S4/S1). Las flechas muestran las trayectorias de la transición como son posibles. Nótese que no aparecen algunas trayectorias como la de S2 a S3. Su ausencia significa que estas trayectorias tienen probabilidad de ocurrencia igual que cero.

5.2 Matriz de Transición

Esquematizar el caso anterior a través de una matriz, se puede ver a continuación, nótese que como existen cuatro estados posibles, se necesitan 4x4 =16 probabilidades

Ahora que se sabe como presentar los datos, ¿qué puede hacerse? Un análisis útil es pronosticar el estado del sistema después de 1, 2,3 o más períodos. Esto se llama análisis de transición, debido a que es a corto plazo y está enfocado a períodos cortos.

5.3 Cálculo de la probabilidad del estado estable

Las cadenas de Markov poseen una propiedad notable en cuanto a que tienden a aproximarse a lo que se llama estado estable. Considérese los dos ejemplos anteriores de análisis de transición. En el sistema de los dos estados, P(S1) resultó ser 0.75 al principio y después 0.625, 0.567, 0.531 y 0.516. Estas probabilidades se mueven hacia un límite. En forma análoga, en el sistema de tres estados puede observarse que P(S1), por ejemplo, adquiere los valores 0.3, 0.45, 0.53, 0.565 y 0.58. Después de unos cuantos ciclos más, las probabilidades de estado comienzan a asentarse o estabilizarse. Cuando una cadena de Markov ha llegado suficientemente lejos como para estar cerca de estos límites, se dice que ha alcanzado un estado estable. Además, estos límites son los mismos, independientemente del punto de partida del sistema.

Una máquina que produce piezas puede estar ajustada o desajustada. Si está ajustada, suponga que la probabilidad de que esté ajustada al día siguiente es de 0.7 y que la probabilidad de que no esté es 0.3. Si la máquina está desajustada, la probabilidad de que este ajustada al día siguiente es 0.6 y la probabilidad de que no esté es de 0.4. Si el estado 1 representa la situación de que la máquina está ajustada y el estado 2 representa el caso en que está desajustada, las probabilidades de cambio son las que se indican en la Matriz 1. Observe que la suma de las probabilidades de una fila es 1.

 

A De Ajustada (estado 1) No ajustada (estado 2) Ajustada (estado 1) 0.7 0.3 No ajustada (estado 2) 0.6 0.4

Considere ahora el estado de la máquina en el tercer día. La probabilidad de que la máquina se halle en el estado 1 el tercer día es: 0.7x0.7 + 0.3x0.6 =0.67 En el Excel se da una función MMmult. o sea multiplicación de Matrices:

RESULTADOS

A De Ajustada(1) No ajustada(2) Ajustada (1) 0,70 0,30 No ajustada(2) 0,60 0,40 Estado Uno 0,70 0,30 Tercer Día 0,67 0,33 Cuarto Día 0,67 0,33 Quinto Día 0,67 0,33 Sexto Día 0,67 0,33 Séptimo Día 0,67 0,33 Octavo Día 0,67 0,33 Noveno Día 0,67 0,33

Estado estable: Las cadenas de Markov poseen una propiedad notable en cuanto a que tienden a aproximarse a lo que se llama Estado estable. En el sistema de dos estados P (1) "Ajustada" resultó ser 0.70 al principio y después 0.60, 0.67. Estas probabilidades se mueven hacia un límite y después de unos cuantos ciclos mas, las probabilidades de estado comienzan a asentarse estabilizarse. Cuando una cadena de Markov ha llegado lo suficientemente lejos como para estar cerca de estos límites, se dice que ha alcanzado un estado estable.

Volver al índice.

Enciclopedia Virtual
Tienda
Libros Recomendados


1647 - Investigaciones socioambientales, educativas y humanísticas para el medio rural
Por: Miguel Ángel Sámano Rentería y Ramón Rivera Espinosa. (Coordinadores)

Este libro es producto del trabajo desarrollado por un grupo interdisciplinario de investigadores integrantes del Instituto de Investigaciones Socioambientales, Educativas y Humanísticas para el Medio Rural (IISEHMER).
Libro gratis
Congresos

15 al 28 de febrero
III Congreso Virtual Internacional sobre

Desafíos de las empresas del siglo XXI

15 al 29 de marzo
III Congreso Virtual Internacional sobre

La Educación en el siglo XXI

Enlaces Rápidos

Fundación Inca Garcilaso
Enciclopedia y Biblioteca virtual sobre economía
Universidad de Málaga